Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 6 de 6
Filter
1.
Texto & contexto enferm ; 32: e20220136, 2023. graf
Article in English | LILACS-Express | LILACS, BDENF | ID: biblio-1432481

ABSTRACT

ABSTRACT Objective: to describe the development of a virtual assistant as a potential tool for health co-production in coping with COVID-19. Method: this is an applied technological production research study developed in March and April 2020 in five stages: 1) literature review, 2) content definition, 3) elaboration of the dialog, 4) test of the prototype, and 5) integration with the social media page. Results: the literature review gathered diverse scientific evidence about the disease based on the Brazilian Ministry of Health publications and by consulting scientific articles. The content was built from the questions most asked by the population, in March 2020, evidenced by Google Trends, in which the following topics emerged: concept of the disease, prevention means, transmission of the disease, main symptoms, treatment modalities, and doubts. Elaboration of the dialog was based on Natural Language Processing, intentions, entities and dialog structure. The prototype was tested in a laboratory with a small number of user computers on a local network to verify the functionality of the set of apps, technical and visual errors in the dialog, and whether the answers provided were in accordance with the user's question, answering the questions correctly and integrated into Facebook. Conclusion: the virtual assistant proved to be a health education tool with potential to combat "Fake News". It also represents a patient-centered form of health communication that favors the strengthening of the bond and interaction between health professionals and patients, promoting co-production in health.


RESUMEN Objetivo: describir el desarrollo de un asistente virtual como posible herramienta para la co-producción en salud a fin de hacer frente al COVID-19. Método: trabajo de investigación aplicado de producción tecnológica, desarrollado en marzo y abril de 2020 en cinco etapas: 1) revisión de la literatura, 2) definición del contenido, 3) elaboración del diálogo, 4) prueba del prototipo y 5) integración con la página web del medio social. Resultados: en la revisión de la literatura se reunieron evidencias científicas sobre la enfermedad a partir de las publicaciones del Ministerio de Salud de Brasil, al igual que sobre la base de consultas en artículos científicos. El contenido se elaboró a partir de las preguntas más frecuentes de la población, en marzo de 2020, puestas en evidencia por medio de Google Trends, donde surgieron los siguientes temas: concepto de la enfermedad, formas de prevención, transmisión de la enfermedad, principales síntomas, modalidades de tratamiento y dudas. La elaboración del diálogo se basó en el Procesamiento de Lenguaje Natural, en intenciones, en entidades y en la estructura del diálogo. El prototipo se puso a prueba en un laboratorio con una cantidad reducida de computadoras usuario en una red local para verificar la funcionalidad del conjunto de aplicaciones, errores técnicos y visuales acerca del diálogo, y si las respuestas proporcionadas estaban de acuerdo con la pregunta del usuario, respondiendo correctamente los interrogantes e integrado a Facebook. Conclusión: el asistente virtual demostró ser una herramienta de educación en salud con potencial para combatir Fake News. También representa una forma de comunicación en salud centrada en el paciente que favorece el fortalecimiento del vínculo y la interacción entre profesionales de la salud y pacientes, promoviendo así la coproducción en salud.


RESUMO Objetivo: descrever o desenvolvimento de um assistente virtual como ferramenta potencial para a coprodução em saúde no enfrentamento à COVID-19. Método: trata-se de uma pesquisa aplicada de produção tecnológica, desenvolvida nos meses de março e abril de 2020 em cinco etapas: 1) revisão de literatura, 2) definição de conteúdo, 3) construção do diálogo, 4) teste do protótipo e 5) integração com página de mídia social. Resultados: a revisão de literatura reuniu evidências científicas sobre a doença a partir das publicações do Ministério da Saúde, no Brasil, e de consultas em artigos científicos. O conteúdo foi construído a partir das perguntas mais realizadas pela população, em março de 2020, evidenciadas por meio do Google Trends, em que emergiram os seguintes temas: conceito da doença, formas de prevenção, transmissão da doença, principais sintomas, formas de tratamento e dúvidas. A construção do diálogo foi baseada em Processamento de Linguagem Natural, intenções, entidades e estrutura de diálogo. O protótipo foi testado em laboratório com um número reduzido de computadores usuários em uma rede local para verificar a funcionalidade do conjunto de aplicações, erros técnicos e visuais acerca do diálogo e se as respostas fornecidas estavam de acordo com a pergunta do usuário, respondendo de forma correta os questionamentos e integrado ao Facebook. Conclusão: o assistente virtual mostrou-se uma ferramenta de educação em saúde e com potencial para combater fake news. Também representa uma forma de comunicação em saúde centrada no paciente, que favorece o fortalecimento de vínculo e interação entre profissionais de saúde e pacientes, promovendo a coprodução em saúde.

2.
Cad. Saúde Pública (Online) ; 39(11): e00243722, 2023. tab, graf
Article in Portuguese | LILACS-Express | LILACS | ID: biblio-1550174

ABSTRACT

Os pacientes com síndrome pós-COVID-19 se beneficiam de programas de promoção de saúde e sua rápida identificação é importante para a utilização custo efetiva desses programas. Técnicas tradicionais de identificação têm fraco desempenho, especialmente em pandemias. Portanto, foi realizado um estudo observacional descritivo utilizando 105.008 autorizações prévias pagas por operadora privada de saúde com aplicação de método não supervisionado de processamento de linguagem natural por modelagem de tópicos para identificação de pacientes suspeitos de infecção por COVID-19. Foram gerados seis modelos: três utilizando o algoritmo BERTopic e três modelos Word2Vec. O modelo BERTopic cria automaticamente grupos de doenças. Já no modelo Word2Vec, para definição dos tópicos relacionados a COVID-19, foi necessária análise manual dos 100 primeiros casos de cada tópico. O modelo BERTopic com mais de 1.000 autorizações por tópico sem tratamento de palavras selecionou pacientes mais graves - custo médio por autorizações prévias pagas de BRL 10.206 e gasto total de BRL 20,3 milhões (5,4%) em 1.987 autorizações prévias (1,9%). Teve 70% de acerto comparado à análise humana e 20% de casos com potencial interesse, todos passíveis de análise para inclusão em programa de promoção à saúde. Teve perda importante de casos quando comparado ao modelo tradicional de pesquisa com linguagem estruturada e identificou outros grupos de doenças - ortopédicas, mentais e câncer. O modelo BERTopic serviu como método exploratório a ser utilizado na rotulagem de casos e posterior aplicação em modelos supervisionados. A identificação automática de outras doenças levanta questionamentos éticos sobre o tratamento de informações em saúde por aprendizado de máquina.


Los pacientes con síndrome pos-COVID-19 pueden beneficiarse de los programas de promoción de la salud. Su rápida identificación es importante para el uso efectivo de estos programas. Las técnicas de identificación tradicionales no tienen un buen desempeño, especialmente en pandemias. Se realizó un estudio observacional descriptivo, con el uso de 105.008 autorizaciones previas pagadas por un operador de salud privado mediante la aplicación de un método no supervisado de procesamiento del lenguaje natural mediante modelado temático para identificar a los pacientes sospechosos de estar infectados por COVID-19. Se generaron 6 modelos: 3 con el uso del algoritmo BERTopic y 3 modelos Word2Vec. El modelo BERTopic crea automáticamente grupos de enfermedades. En el modelo Word2Vec para definir temas relacionados con la COVID-19, fue necesario el análisis manual de los primeros 100 casos de cada tema. El modelo BERTopic con más de 1.000 autorizaciones por tema sin tratamiento de palabras seleccionó a pacientes más graves: costo promedio por autorizaciones previas pagada de BRL 10.206 y gasto total de BRL 20,3 millones (5,4%) en 1.987 autorizaciones previas (1,9%). Además, contó con el 70% de aciertos en comparación con el análisis humano y el 20% de los casos con potencial interés, todos los cuales pueden analizarse para su inclusión en un programa de promoción de la salud. Hubo una pérdida significativa de casos en comparación con el modelo tradicional de investigación con lenguaje estructurado y se identificó otros grupos de enfermedades: ortopédicas, mentales y cáncer. El modelo BERTopic sirvió como un método exploratorio para ser utilizado en el etiquetado de casos y su posterior aplicación en modelos supervisados. La identificación automática de otras enfermedades plantea preguntas éticas sobre el tratamiento de la información de salud mediante el aprendizaje de máquina.


Patients with post-COVID-19 syndrome benefit from health promotion programs. Their rapid identification is important for the cost-effective use of these programs. Traditional identification techniques perform poorly especially in pandemics. A descriptive observational study was carried out using 105,008 prior authorizations paid by a private health care provider with the application of an unsupervised natural language processing method by topic modeling to identify patients suspected of being infected by COVID-19. A total of 6 models were generated: 3 using the BERTopic algorithm and 3 Word2Vec models. The BERTopic model automatically creates disease groups. In the Word2Vec model, manual analysis of the first 100 cases of each topic was necessary to define the topics related to COVID-19. The BERTopic model with more than 1,000 authorizations per topic without word treatment selected more severe patients - average cost per prior authorizations paid of BRL 10,206 and total expenditure of BRL 20.3 million (5.4%) in 1,987 prior authorizations (1.9%). It had 70% accuracy compared to human analysis and 20% of cases with potential interest, all subject to analysis for inclusion in a health promotion program. It had an important loss of cases when compared to the traditional research model with structured language and identified other groups of diseases - orthopedic, mental and cancer. The BERTopic model served as an exploratory method to be used in case labeling and subsequent application in supervised models. The automatic identification of other diseases raises ethical questions about the treatment of health information by machine learning.

3.
Cad. Saúde Pública (Online) ; 35(5): e00033417, 2019. tab, graf
Article in Portuguese | LILACS | ID: biblio-1001664

ABSTRACT

Durante o período de pós-comercialização, quando medicamentos são usados por grandes populações e por períodos de tempo maiores, eventos adversos (EA) inesperados podem ocorrer, o que pode alterar a relação risco-benefício dos medicamentos o suficiente para exigir uma ação regulatória. Eventos adversos são agravos à saúde que podem surgir durante o tratamento com um produto farmacêutico, os quais, no período de pós-comercialização do medicamento, podem requerer um aumento significativo de cuidados de saúde e resultar em danos desnecessários aos pacientes, muitas vezes fatais. Portanto, o quanto antes, a descoberta de EA no período de pós-comercialização é um objetivo principal do sistema de saúde. Alguns países possuem sistemas de vigilância farmacológica responsáveis pela coleta de relatórios voluntários de EA na pós-comercialização, mas estudos já demonstraram que, com a utilização de redes sociais, pode-se conseguir um número maior e mais rápido de relatórios. O objetivo principal deste projeto é construir um sistema totalmente automatizado que utilize o Twitter como fonte para encontrar EA novos e já conhecidos e fazer a análise estatística dos dados obtidos. Para isso, foi construído um sistema que coleta, processa, analisa e avalia tweets em busca de EA, comparando-os com dados da Agência Americana de Controle de Alimentos e Medicamentos (FDA) e do padrão de referência construído. Nos resultados obtidos, conseguimos encontrar EA novos e já existentes relacionados ao medicamento doxiciclina, o que demonstra que o Twitter, quando utilizado em conjunto com outras fontes de dados, pode ser útil para a farmacovigilância.


Durante el período de poscomercialización, cuando grandes poblaciones consumen medicamentos durante períodos más prolongados de tiempo, se pueden producir eventos adversos (EA) inesperados, lo que puede alterar la relación riesgo-beneficio de los medicamentos. Esta situación es suficiente para exigir una acción regulatoria. Los EA son agravios a la salud que pueden surgir durante el tratamiento con un producto farmacéutico, los cuales, durante el período de poscomercialización del medicamento, pueden requerir un aumento significativo de cuidados de salud y resultar en lesiones innecesarias para los pacientes, muchas veces fatales. Por lo tanto, el hallazgo anticipado de EA durante el período de poscomercialización es un objetivo primordial del sistema de salud. Algunos países cuentan con sistemas de vigilancia farmacológica, responsables de la recogida de informes voluntarios de EA durante la poscomercialización, pero algunos estudios ya demostraron que, con la utilización de las redes sociales, se puede conseguir un número de informes mayor y más rápido. El objetivo principal de este proyecto es construir un sistema totalmente automatizado que utilice Twitter como fuente para encontrar nuevos EA y ya conocidos, además de realizar un análisis estadístico de los datos obtenidos. Para tal fin, se construyó un sistema que recoge, procesa, analiza y evalúa tweets en búsqueda de eventos adversos, comparándolos con datos de la Agencia Americana de Control de Alimentos y Medicamentos (FDA) y del estándar de referencia construido. En los resultados obtenidos, conseguimos encontrar nuevos eventos adversos y ya existentes, relacionados con el medicamento doxiciclina, lo que demuestra que Twitter, cuando es utilizado junto a otras fuentes de datos, puede ser útil para la farmacovigilancia.


During the post-marketing period, when medicines are used by large population contingents and for longer periods, unexpected adverse events (AE) can occur, potentially altering the drug's risk-benefit ratio enough to demand regulatory action. AE are health problems that can occur during treatment with a pharmaceutical product, which in the drug's post-marketing period can require a significant increase in health care and result in unnecessary and often fatal harm to patients. Therefore, a key objective for the health system is to identify AE as soon as possible in the post-marketing period. Some countries have pharmacovigilance systems responsible for collecting voluntary reports of post-marketing AE, but studies have shown that social networks can be used to obtain more and faster reports. The current project's main objective is to build a totally automated system using Twitter as a source to detect both new and previously known AE and conduct the statistical analysis of the resulting data. A system was thus built to collect, process, analyze, and assess tweets in search of AE, comparing them to U.S. Food and Drug Administration (FDA) data and the reference standard. The results allowed detecting new and existing AE related to the drug doxycycline, showing that Twitter can be useful in pharmacovigilance when employed jointly with other data sources.


Subject(s)
Humans , Adverse Drug Reaction Reporting Systems , Doxycycline/adverse effects , Drug-Related Side Effects and Adverse Reactions/prevention & control , Data Mining/methods , Social Media , United States , United States Food and Drug Administration , Pharmaceutical Preparations/classification , Databases, Factual , Information Dissemination , Pharmacovigilance , Malaria/drug therapy
4.
J. health inform ; 8(supl.I): 1031-1040, 2016. ilus
Article in Portuguese | LILACS | ID: biblio-906773

ABSTRACT

A utilização de técnicas de Processamento de Linguagem Natural (PLN) em textos clínicos é amplamente dependente de grandes quantidades de dados textuais anotados, denominados corpus ou padrão ouro. Sendo essenciais para a modelagem da linguagem durante a fase de treinamento de diversos algoritmos de PLN. Porém, para a criação de um padrão ouro é necessário um extenso e custoso trabalho manual de anotação, que demanda um grande esforço de especialistas. OBJETIVO: Realizar uma revisão da literatura, visando o estudo de metodologias e ferramentas utilizadas em procedimentos de anotação de textos. MÉTODO: Levantamento em bases científicas referentes à elaboração de corpus morfológicos, sintáticos e morfossintáticos foi realizado, analisando 32 estudos de anotação e mais 12 ferramentas. RESULTADOS: Foram levantados os principais aspectos nos processos de anotação, bem como realizada uma avaliação dentre critérios pré-definidos de cada das ferramentas de suporte encontradas.


The use of natural language processing techniques (NLP) in clinical texts is dependent on large amounts of annotated text data, called corpus or gold standard. Are essential for the modelling language during the training phase of NLP algorithms. However, for the creation of a gold standard is required extensive and costly manual annotation task, that demands a great deal of experts. OBJECTIVES: To review the literature to identify methodologies and tools applied to text annotation. METHODS: Scientifics databases search regarding the development of morphological, syntactic and morphosyntactic corpus was performed by analyzing 32 annotation studies and 12 tools. RESULTS: Main aspects of the annotation process description, as well as an assessment from pre-defined criteria for each one of the annotation tools identified.


Subject(s)
Humans , Natural Language Processing , Software , Information Storage and Retrieval , Congresses as Topic
5.
J. health inform ; 8(supl.I): 373-380, 2016. tab
Article in English | LILACS | ID: biblio-906292

ABSTRACT

Ontologias terminológicas padronizadas e corretamente traduzidas são essenciais para o desenvolvimento de aplicações de processamento de linguagem natural na área da saúde. Para o desenvolvimento de uma aplicação de busca semântica em narrativas clínicas em português se fez necessária a utilização dos termos clínicos da Unified Medical Language System (UMLS). OBJETIVOS: Traduzir termos da UMLS em Português Europeu para Português Brasileiro. MÉTODOS: Foi desenvolvido um algoritmo de tradução semi-automática baseada em regras de substituição de texto. RESULTADOS: Após execução do algoritmo e avaliação por parte de especialistas, o algoritmo deixou de traduzir corretamente apenas 0.1% dos termos da base de testes. CONCLUSÃO: A utilização do método proposto se mostrou efetivo na tradução dos termos da UMLS e pode auxiliar em posteriores adaptações de listagens em Português Europeu para Português Brasileiro.


Correctly translated and standardized clinical ontologies are essential for development of Natural LanguageProcessing application for the medical domain. To develop an ontology-driven semantic search application for Portuguese clinical notes we needed to implement the Unified Medical Language System (UMLS) ontologies, specifically for Brazilian Portuguese. OBJECTIVES: To translate UMLS terms from European Portuguese to Brazilian Portuguese. METHODS: To develop a semi-automatic translation algorithm based on string replacement rules. RESULTS: Following the experiments and specialists' evaluation the algorithm mis-translated only 0.1% of terms in our test set. CONCLUSION: The proposed method proved to be effective for UMLS clinical terms translation and can be useful for posterior adaption ofa set of clinical terms from European Portuguese to Brazilian Portuguese.


Subject(s)
Humans , Translating , Natural Language Processing , Congresses as Topic
6.
Dement. neuropsychol ; 8(3)set. 14.
Article in English | LILACS | ID: lil-724274

ABSTRACT

Discourse production is an important aspect in the evaluation of brain-injured individuals. We believe that studies comparing the performance of brain-injured subjects with that of healthy controls must use groups with compatible education. A pioneering application of machine learning methods using Brazilian Portuguese for clinical purposes is described, highlighting education as an important variable in the Brazilian scenario. Objective: The aims were to describe how to: (i) develop machine learning classifiers using features generated by natural language processing tools to distinguish descriptions produced by healthy individuals into classes based on their years of education; and (ii) automatically identify the features that best distinguish the groups. Methods: The approach proposed here extracts linguistic features automatically from the written descriptions with the aid of two Natural Language Processing tools: Coh-Metrix-Port and AIC. It also includes nine task-specific features (three new ones, two extracted manually, besides description time; type of scene described ? simple or complex; presentation order ? which type of picture was described first; and age). In this study, the descriptions by 144 of the subjects studied in Toledo18 were used,which included 200 healthy Brazilians of both genders. Results and Conclusion: A Support Vector Machine (SVM) with a radial basis function (RBF) kernel is the most recommended approach for the binary classification of our data, classifying three of the four initial classes. CfsSubsetEval (CFS) is a strong candidate to replace manual feature selection methods.


Um importante aspecto na avaliação de indivíduos com lesão cerebral é a produção de discurso. Acreditamos que estudos que comparam o desempenho de lesados com grupos de controles sadios devem utilizar grupos com escolaridade compatíveis. Nós apresentamos uma abordagem pioneira ao utilizar métodos de aprendizado de máquina com propósitos clínicos, para o Português do Brasil, destacando a escolaridade como variável de importância no cenário brasileiro. Objetivo: Nosso objetivo é descrever como: (i) desenvolver classificadores via aprendizado de máquina, usando features criadas por ferramentas de processamento de línguas naturais, para diferenciar descrições produzidas por indivíduos sadios em classes de anos de escolaridade e (ii) identificar automaticamente as features que melhor distinguem esses grupos. Métodos: A abordagem proposta neste estudo extrai características linguísticas automaticamente a partir das descrições escritas com a ajuda de duas ferramentas de Processamento de Linguagem Natural: Coh-Metrix-Port e AIC. Ela inclui ainda nove features dedicadas à tarefa (três novas, duas extraídas manualmente, além de tempo de descrição; tipo de cena descrita - simples ou complexa; ordem de apresentação das figuras e idade). Neste estudo, foram utilizadas as descrições de 144 indivíduos estudados em Toledo18, que incluiu 200 brasileiros, sadios, de ambos sexos. Resultados e Conclusão: SMV com kernel RBF é o mais recomendado para a classificação binária dos nossos dados, classificando três das quatro classes iniciais. O método de seleção das features CfsSubsetEval (CSF) é um forte candidato para substituir métodos de seleção manual.


Subject(s)
Humans , Natural Language Processing , Adult , Educational Status , Age Groups
SELECTION OF CITATIONS
SEARCH DETAIL